16 resultados para Bases de dados de medicamentos

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Desde a Pré-História que a escolha de materiais esteve relacionada com a Arte. Mais tarde, durante a Idade Moderna vai ganhando uma importância cada vez maior. Atingida que foi a Idade Contemporânea, nomeadamente após a Revolução Industrial e durante a Segunda Guerra Mundial, devido ao aumento do número de materiais disponíveis, é que se pode falar de uma verdadeira seleção de materiais. É também após a Revolução Industrial que se clarificam as relações entre a evolução dos materiais e os movimentos e correntes das Artes Plásticas. Neste contexto, estudaram-se as interligações entre o processo de design e as metodologias de seleção, assim como as diversas tipologias de ferramentas existentes para esse efeito. Deste estudo, consideradas as respetivas vantagens e limitações, foi possível identificar bases de dados essencialmente técnicas, ou ao invés, ferramentas para inspiração com muitas imagens e pouca informação sobre as propriedades dos materiais. Para completar este levantamento crítico sobre processos e ferramentas de seleção, inquiriram-se cinquenta e três profissionais que trabalhavam em diferentes gabinetes de design portugueses. As perguntas dirigidas aos designers portugueses versaram sobre problemas relacionados com a escolha de materiais, abrangendo o tipo de matériasprimas empregues, processos utilizados e a qualidade da informação obtida. Na sequência deste estudo, verificou-se a existência de diversas lacunas relativamente aos meios disponíveis, rotinas de seleção, qualidade da informação existente e metodologias utilizadas. Foi neste contexto que se iniciou o projeto de criação de uma nova metodologia suportada por uma ferramenta digital. Os principais aspetos inovadores são: uma melhor interligação entre a metodologia de design e o processo de seleção de materiais e a sua sincronização; a informação necessária em cada etapa e o destaque dos fatores catalisadores da seleção de materiais. Outro elemento inovador foi a conjugação de três formas deferentes de seleção de materiais numa só ferramenta (a geral, a visual e a específica) e a hipótese de aceder a diferentes graus de informação. A metodologia, no contexto dos recursos disponíveis, foi materializada sob a forma de ferramenta digital (ptmaterials.com). O protótipo foi aferido com testes de usabilidade de cariz heurístico, com a participação de dezanove utilizadores. Foram detetadas diversas falhas de interação que condicionaram a liberdade e o controlo da navegação no seio da interface. Os utilizadores também mencionaram a existência de lacunas na prevenção de erros e a ligação do sistema à lógica habitual de outras aplicações já existentes. No entanto, também constituiu um estímulo a circunstância da maioria dos designers avaliarem o sistema como eficaz, eficiente, satisfatório e confirmarem o interesse da existência dos três tipos de seleção. Posteriormente, ao analisar os restantes resultados dos testes de usabilidade, também foram evidenciadas as vantagens dos diferentes tipos de informação disponibilizada e a utilidade de uma ferramenta desta natureza para a Indústria e Economia Nacionais. Esta ferramenta é apenas um ponto de partida, existindo espaço para melhorar a proposta, apesar da concretização de uma ferramenta digital ser um trabalho de grande complexidade. Não obstante se tratar de um protótipo, esta ferramenta está adequada aos dias de hoje e é passível de evoluir no futuro, tendo também a possibilidade de vir a ser preferencialmente utilizada por outros países de língua portuguesa.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O projecto de sequenciação do genoma humano veio abrir caminho para o surgimento de novas áreas transdisciplinares de investigação, como a biologia computacional, a bioinformática e a bioestatística. Um dos resultados emergentes desde advento foi a tecnologia de DNA microarrays, que permite o estudo do perfil da expressão de milhares de genes, quando sujeitos a perturbações externas. Apesar de ser uma tecnologia relativamente consolidada, continua a apresentar um conjunto vasto de desafios, nomeadamente do ponto de vista computacional e dos sistemas de informação. São exemplos a optimização dos procedimentos de tratamento de dados bem como o desenvolvimento de metodologias de interpretação semi-automática dos resultados. O principal objectivo deste trabalho consistiu em explorar novas soluções técnicas para agilizar os procedimentos de armazenamento, partilha e análise de dados de experiências de microarrays. Com esta finalidade, realizou-se uma análise de requisitos associados às principais etapas da execução de uma experiência, tendo sido identificados os principais défices, propostas estratégias de melhoramento e apresentadas novas soluções. Ao nível da gestão de dados laboratoriais, é proposto um LIMS (Laboratory Information Management System) que possibilita a gestão de todos os dados gerados e dos procedimentos realizados. Este sistema integra ainda uma solução que permite a partilha de experiências, de forma a promover a participação colaborativa de vários investigadores num mesmo projecto, mesmo usando LIMS distintos. No contexto da análise de dados, é apresentado um modelo que facilita a integração de algoritmos de processamento e de análise de experiências no sistema desenvolvido. Por fim, é proposta uma solução para facilitar a interpretação biológica de um conjunto de genes diferencialmente expressos, através de ferramentas que integram informação existente em diversas bases de dados biomédicas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O trabalho apresentado nesta dissertação teve por objectivo principal a concepção, modelação e desenvolvimento de uma plataforma de middleware que permitisse a integração de sistemas de informação, em todos os seus níveis (dados, lógico e apresentação), perfazendo uma federação de bibliotecas digitais distribuídas e ecléticas. Para este fim, foram estudadas as várias abordagens de modelação e organização das bibliotecas digitais, assim como os diversos sistemas e tecnologias de suporte existentes no momento inicial do trabalho. Compreendendo a existência de muitas lacunas ainda neste domínio, nomeadamente ao nível da interoperabilidade de sistemas heterogéneos e integração da semântica de metadados, decidiu-se proceder a um trabalho de investigação e desenvolvimento que pudesse apresentar eventuais soluções para o preenchimento de tais lacunas. Desta forma, surgem neste trabalho duas tecnologias, o XML e o Dublin Core, que servem de base a todas as restantes tecnologias usadas para a interoperabilidade e para a integração. Ainda utilizando estas tecnologias base, foram estudados e desenvolvidos meios simples, mas eficientes, de salvaguarda, indexação e pesquisa de informação, tentando manter a independência face aos grandes produtores de bases de dados, que só por si não resolvem alguns dos problemas mais críticos da investigação no domínio das bibliotecas digitais. ABSTRACT: The main objective of the work presented in this dissertation is the design, modulation and development of a middleware framework to allow information systems interoperability, in all their scope (data, logic and presentation), to accomplish a distributed and eclectic digital libraries federation. Several modulations and organizations were approached, and several support systems and technologies were studied. Understanding the existence of many gaps in this domain, namely in heterogeneous information systems interoperation and metadata semantic integration, it was decided to conduct a research and development work, which, eventually, could present some solutions to fill in these gaps. In this way, two technologies, XML and Dublin Core, appear to serve as the basis of all remaining technologies, to interoperate and to achieve semantic integration. Using yet these technologies, it was also studied and developed simple means, but efficient ones, to save, index and query information, preserving the independence from major data base producers, which by their selves don’t solve critical problems in the digital libraries research domain.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Um dos maiores avanços científicos do século XX foi o desenvolvimento de tecnologia que permite a sequenciação de genomas em larga escala. Contudo, a informação produzida pela sequenciação não explica por si só a sua estrutura primária, evolução e seu funcionamento. Para esse fim novas áreas como a biologia molecular, a genética e a bioinformática são usadas para estudar as diversas propriedades e funcionamento dos genomas. Com este trabalho estamos particularmente interessados em perceber detalhadamente a descodificação do genoma efectuada no ribossoma e extrair as regras gerais através da análise da estrutura primária do genoma, nomeadamente o contexto de codões e a distribuição dos codões. Estas regras estão pouco estudadas e entendidas, não se sabendo se poderão ser obtidas através de estatística e ferramentas bioinfomáticas. Os métodos tradicionais para estudar a distribuição dos codões no genoma e seu contexto não providenciam as ferramentas necessárias para estudar estas propriedades à escala genómica. As tabelas de contagens com as distribuições de codões, assim como métricas absolutas, estão actualmente disponíveis em bases de dados. Diversas aplicações para caracterizar as sequências genéticas estão também disponíveis. No entanto, outros tipos de abordagens a nível estatístico e outros métodos de visualização de informação estavam claramente em falta. No presente trabalho foram desenvolvidos métodos matemáticos e computacionais para a análise do contexto de codões e também para identificar zonas onde as repetições de codões ocorrem. Novas formas de visualização de informação foram também desenvolvidas para permitir a interpretação da informação obtida. As ferramentas estatísticas inseridas no modelo, como o clustering, análise residual, índices de adaptação dos codões revelaram-se importantes para caracterizar as sequências codificantes de alguns genomas. O objectivo final é que a informação obtida permita identificar as regras gerais que governam o contexto de codões em qualquer genoma.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho de investigação visa propor uma metodologia de elaboração de uma base de dados terminológica destinada a um público não- -especialista, e surge como resposta à necessidade de transmissão de informação ao consumidor, fruto de falta de – ou parca – compreensão do mesmo, relativa a géneros alimentícios com alegações de saúde disponíveis no mercado: os denominados alimentos funcionais. A proposta metodológica de segmentação e caracterização do processo terminográfico, baseada no modelo desenvolvido por Gouadec, para organização do processo global de tradução, encontra-se organizada em três fases – pré-terminografia, terminografia e pós-terminografia –, e compreende três vertentes de análise – uma vertente conceptual, uma vertente comunicativa e uma vertente textual. Em termos gerais, na fase de pré-terminografia é desenvolvido um trabalho preparatório – de familiarização com a área de especialidade e de delimitação da subárea de especialidade, de identificação dos contextos comunicativos e de constituição de corpora especializados – essencial à subsequente fase executória – fase de terminografia – de elaboração do recurso terminológico. A última fase – fase de pós-terminografia – compreende o desenvolvimento de esforços com vista à aplicação industrial do recurso, assim como a sua posterior constante actualização. Constituem objecto de análise do presente trabalho as duas primeiras fases supramencionadas e as etapas que as constituem. A consideração de três vertentes de análise é, de igual forma, relevante.Tal facto é demonstrado ao longo do processo terminográfico, designadamente a nível da análise das repercussões, na fase de terminografia, de cada uma destas vertentes, consideradas já na fase de pré-terminografia. Com este trabalho de investigação pretendemos demonstrar o papel social da Terminologia, no contributo que pode prestar na divulgação de ciência, concretamente através da apresentação de uma proposta de uma base de dados terminológica sobre alimentos funcionais para o consumidor – a AlF Beta. Do mesmo modo, temos por objectivo contribuir a nível da reflexão teórica e metodológica em Terminologia, nomeadamente no que concerne a sua vertente aplicada, através da elaboração de recursos terminológicos destinados a públicos não-especialistas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The renewed concern in assessing risks and consequences from technological hazards in industrial and urban areas continues emphasizing the development of local-scale consequence analysis (CA) modelling tools able to predict shortterm pollution episodes and exposure effects on humans and the environment in case of accident with hazardous gases (hazmat). In this context, the main objective of this thesis is the development and validation of the EFfects of Released Hazardous gAses (EFRHA) model. This modelling tool is designed to simulate the outflow and atmospheric dispersion of heavy and passive hazmat gases in complex and build-up areas, and to estimate the exposure consequences of short-term pollution episodes in accordance to regulatory/safety threshold limits. Five main modules comprising up-to-date methods constitute the model: meteorological, terrain, source term, dispersion, and effects modules. Different initial physical states accident scenarios can be examined. Considered the main core of the developed tool, the dispersion module comprises a shallow layer modelling approach capable to account the main influence of obstacles during the hazmat gas dispersion phenomena. Model validation includes qualitative and quantitative analyses of main outputs by the comparison of modelled results against measurements and/or modelled databases. The preliminary analysis of meteorological and source term modules against modelled outputs from extensively validated models shows the consistent description of ambient conditions and the variation of the hazmat gas release. Dispersion is compared against measurements observations in obstructed and unobstructed areas for different release and dispersion scenarios. From the performance validation exercise, acceptable agreement was obtained, showing the reasonable numerical representation of measured features. In general, quality metrics are within or close to the acceptance limits recommended for ‘non-CFD models’, demonstrating its capability to reasonably predict hazmat gases accidental release and atmospheric dispersion in industrial and urban areas. EFRHA model was also applied to a particular case study, the Estarreja Chemical Complex (ECC), for a set of accidental release scenarios within a CA scope. The results show the magnitude of potential effects on the surrounding populated area and influence of the type of accident and the environment on the main outputs. Overall the present thesis shows that EFRHA model can be used as a straightforward tool to support CA studies in the scope of training and planning, but also, to support decision and emergency response in case of hazmat gases accidental release in industrial and built-up areas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In Portugal, it was estimated that around 1.95 Mton/year of wood is used in residential wood burning for heating and cooking. Additionally, in the last decades, burnt forest area has also been increasing. These combustions result in high levels of toxic air pollutants and a large perturbation of atmospheric chemistry, interfere with climate and have adverse effects on health. Accurate quantification of the amounts of trace gases and particulate matter emitted from residential wood burning, agriculture and garden waste burning and forest fires on a regional and global basis is essential for various purposes, including: the investigation of several atmospheric processes, the reporting of greenhouse gas emissions, and quantification of the air pollution sources that affect human health at regional scales. In Southern Europe, data on detailed emission factors from biomass burning are rather inexistent. Emission inventories and source apportionment, photochemical and climate change models use default values obtained for US and Northern Europe biofuels. Thus, it is desirable to use more specific locally available data. The objective of this study is to characterise and quantify the contribution of biomass combustion sources to atmospheric trace gases and aerosol concentrations more representative of the national reality. Laboratory (residential wood combustion) and field (agriculture/garden waste burning and experimental wildland fires) sampling experiments were carried out. In the laboratory, after the selection of the most representative wood species and combustion equipment in Portugal, a sampling program to determine gaseous and particulate matter emission rates was set up, including organic and inorganic aerosol composition. In the field, the smoke plumes from agriculture/garden waste and experimental wildland fires were sampled. The results of this study show that the combustion equipment and biofuel type used have an important role in the emission levels and composition. Significant differences between the use of traditional combustion equipment versus modern equipments were also observed. These differences are due to higher combustion efficiency of modern equipment, reflecting the smallest amount of particulate matter, organic carbon and carbon monoxide released. With regard to experimental wildland fires in shrub dominated areas, it was observed that the largest organic fraction in the samples studied was mainly composed by vegetation pyrolysis products. The major organic components in the smoke samples were pyrolysates of vegetation cuticles, mainly comprising steradienes and sterol derivatives, carbohydrates from the breakdown of cellulose, aliphatic lipids from vegetation waxes and methoxyphenols from the lignin thermal degradation. Despite being a banned practice in our country, agriculture/garden waste burning is actually quite common. To assess the particulate matter composition, the smoke from three different agriculture/garden residues have been sampled into 3 different size fractions (PM2.5, PM2.5-10 and PM>10). Despite distribution patterns of organic compounds in particulate matter varied among residues, the amounts of phenolics (polyphenol and guaiacyl derivatives) and organic acids were always predominant over other organic compounds in the organosoluble fraction of smoke. Among biomarkers, levoglucosan, β-sitosterol and phytol were detected in appreciable amounts in the smoke of all agriculture/garden residues. In addition, inositol may be considered as an eventual tracer for the smoke from potato haulm burning. It was shown that the prevailing ambient conditions (such as high humidity in the atmosphere) likely contributed to atmospheric processes (e.g. coagulation and hygroscopic growth), which influenced the particle size characteristics of the smoke tracers, shifting their distribution to larger diameters. An assessment of household biomass consumption was also made through a national scale survey. The information obtained with the survey combined with the databases on emission factors from the laboratory and field tests allowed us to estimate the pollutant amounts emitted in each Portuguese district. In addition to a likely contribution to the improvement of emission inventories, emission factors obtained for tracer compounds in this study can be applied in receptor models to assess the contribution of biomass burning to the levels of atmospheric aerosols and their constituents obtained in monitoring campaigns in Mediterranean Europe.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O mercado imobiliário tem um papel importante nas economias modernas, tanto a nível macro como a nível micro. Ao nível macro, a construção de habitação representa um sector importante e influente na economia, com efeitos multiplicadores significativos sobre a produção e o emprego. Ao nível micro, uma residência representa o activo mais valioso da maioria dos indivíduos e uma parcela muito relevante da riqueza das famílias. Para estas, o custo e a qualidade das suas habitações influencia directa e indirectamente a sua qualidade de vida. A habitação é por isso mesmo um tema, que avaliado nas suas múltiplas dimensões, se caracteriza por ser bastante complexo, mas também ao mesmo tempo desafiante. De modo a delimitar o objecto de análise do trabalho de investigação, esta tese realça os aspectos de localização e distribuição espacial das habitações urbanas. Será desenvolvido um quadro conceptual e respectiva metodologia para a compreender a estrutura espacial da habitação urbana realçando os três aspectos fundamentais da análise espacial: heterogenidade espacial, dependência espacial e escala espacial. A metodologia, aplicada à área urbana de Aveiro e Ílhavo é baseada numa análise hedónica factorial de preços e na noção não geométrica do espaço. Primeiro, é fixada uma escala territorial e são definidos submercados habitacional. Posteriormente, quer a heterogeneidade quer a dependência espaciais são estudados utilizando métodos econométricos, sem considerar qualquer padrão fixo e conhecido de interações espaciais. Em vez disso, são desenvolvidos novos métodos,tendo como base o modelo hedónico factorial, para inferir sobre os potenciais drivers de difusão espacial no valor de uma habitação. Este modelo, foi aplicado a duas diferentes escalas espaciais, para compreender as preferências dos indivíduos em Aveiro ao escolher os seus locais de residencia, e como estas afectam os preços da habitação. O trabalho empírico, utilizando duas bases de dados de habitação distintas, aplicadas ao mercado de habitação de Aveiro mostram: i) em linha com a literatura, a dificuldade de definir submercados e compreender as inter-relações entre esses mercados; ii) a utilidade de uma abordagem híbrida, combinando análise factorial com regressão; iii) a importância fundamental que o efeito escala espacial desempenha no estudo da heterogeneidade e dos spillovers e, finalmente, iv) uma metodologia inovadora para analisar spillovers sem assumir aprioristicamente uma estrutura espacial específica de difusão espacial. Esta metodologia considera a matriz de pesos espaciais (W) desconhecida e estimatima as interações espaciais dentro e entre submercados habitação.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A maioria das funções celulares, incluindo expressão de genes, crescimento e proliferação celulares, metabolismo, morfologia, motilidade, comunicação intercelular e apoptose, é regulada por interações proteína-proteína (IPP). A célula responde a uma variedade de estímulos, como tal a expressão de proteínas é um processo dinâmico e os complexos formados são constituídos transitoriamente mudando de acordo com o seu ciclo funcional, adicionalmente, muitas proteínas são expressas de uma forma dependente do tipo de célula. Em qualquer instante a célula pode conter cerca de centenas de milhares de IPPs binárias, e encontrar os companheiros de interação de uma proteína é um meio de inferir a sua função. Alterações em redes de IPP podem também fornecer informações acerca de mecanismos de doença. O método de identificação binário mais frequentemente usado é o sistema Dois Hibrido de Levedura, adaptado para rastreio em larga escala. Esta metodologia foi aqui usada para identificar os interactomas específicos de isoforma da Proteína Fosfatase 1 (PP1), em cérebro humano. A PP1 é uma proteína fosfatase de Ser/Thr envolvida numa grande variedade de vias e eventos celulares. É uma proteína conservada codificada por três genes, que originam as isoformas α, β, e γ, com a última a originar γ1 e γ2 por splicing alternativo. As diferentes isoformas da PP1 são reguladas pelos companheiros de interação – proteínas que interagem com a PP1 (PIPs). A natureza modular dos complexos da PP1, bem como a sua associação combinacional, gera um largo reportório de complexos reguladores e papéis em circuitos de sinalização celular. Os interactomas da PP1 específicos de isofoma, em cérebro, foram aqui descritos, com um total de 263 interações identificadas e integradas com os dados recolhidos de várias bases de dados de IPPs. Adicionalmente, duas PIPs foram selecionadas para uma caracterização mais aprofundada da interação: Taperina e Sinfilina-1A. A Taperina é uma proteína ainda pouco descrita, descoberta recentemente como sendo uma PIP. A sua interação com as diferentes isoformas da PP1 e localização celulares foram analisadas. Foi descoberto que a Taperina é clivada e que está presente no citoplasma, membrana e núcleo e que aumenta os níveis de PP1, em células HeLa. Na membrana ela co-localiza com a PP1 e a actina e uma forma mutada da Taperina, no motivo de ligação à PP1, está enriquecida no núcleo, juntamente com a actina. Mais, foi descoberto que a Taperina é expressa em testículo e localiza-se na região acrossómica da cabeça do espermatozoide, uma estrutura onde a PP1 e a actina estão também presentes. A Sinfilina-1A, uma isoforma da Sinfilina-1, é uma proteína com tendência para agregar e tóxica, envolvida na doença de Parkinson. Foi mostrado que a Sinfilina-1A liga às isoformas da PP1, por co-transformação em levedura, e que mutação do seu motivo de ligação à PP1 diminuiu significativamente a interação, num ensaio de overlay. Quando sobre-expressa em células Cos-7, a Sinfilina-1A formou corpos de inclusão onde a PP1 estava presente, no entanto a forma mutada da Sinfilina-1A também foi capaz de agregar, indicando que a formação de inclusões não foi dependente de ligação à PP1. Este trabalho dá uma nova perspetiva dos interactomas da PP1, incluindo a identificação de dezenas de companheiros de ligação específicos de isoforma, e enfatiza a importância das PIPs, não apenas na compreensão das funções celulares da PP1 mas também, como alvos de intervenção terapêutica.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Access control is a software engineering challenge in database applications. Currently, there is no satisfactory solution to dynamically implement evolving fine-grained access control mechanisms (FGACM) on business tiers of relational database applications. To tackle this access control gap, we propose an architecture, herein referred to as Dynamic Access Control Architecture (DACA). DACA allows FGACM to be dynamically built and updated at runtime in accordance with the established fine-grained access control policies (FGACP). DACA explores and makes use of Call Level Interfaces (CLI) features to implement FGACM on business tiers. Among the features, we emphasize their performance and their multiple access modes to data residing on relational databases. The different access modes of CLI are wrapped by typed objects driven by FGACM, which are built and updated at runtime. Programmers prescind of traditional access modes of CLI and start using the ones dynamically implemented and updated. DACA comprises three main components: Policy Server (repository of metadata for FGACM), Dynamic Access Control Component (DACC) (business tier component responsible for implementing FGACM) and Policy Manager (broker between DACC and Policy Server). Unlike current approaches, DACA is not dependent on any particular access control model or on any access control policy, this way promoting its applicability to a wide range of different situations. In order to validate DACA, a solution based on Java, Java Database Connectivity (JDBC) and SQL Server was devised and implemented. Two evaluations were carried out. The first one evaluates DACA capability to implement and update FGACM dynamically, at runtime, and, the second one assesses DACA performance against a standard use of JDBC without any FGACM. The collected results show that DACA is an effective approach for implementing evolving FGACM on business tiers based on Call Level Interfaces, in this case JDBC.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Os fogos florestais, embora possam ser encarados como um fenómeno natural, constituem igualmente uma ameaça com impactos negativos a vários níveis. A alteração dos regimes naturais do fogo por acção antrópica tem vindo a maximizar o potencial catastrófico do fenómeno em diferentes regiões do planeta, destacando-se, em particular, a Região Mediterrânica, onde o fogo constitui uma perturbação recorrente associada, por um lado, às características climáticas desta região e, por outro, às práticas tradicionais decorrentes da presença humana nessa área, numa extensão temporal de milhares de anos. Em Portugal, o problema dos fogos florestais assume uma expressividade de particular relevo, colocando-o entre os países do sul da Europa mais atingidos pelo fogo a cada Verão. Reconhecendo o papel das condições meteorológicas nas interacções envolvidas no processo de deflagração e propagação de incêndios, a identificação de condições meteorológicas propícias à ocorrência de incêndios, expressa sob a forma de índices de risco reveste-se de crucial importância para as operações de prevenção e combate aos incêndios, para além da mais-valia que constituem para os restantes sectores da sociedade. Adicionalmente, a detecção e monitorização de ocorrências de incêndios a partir de satélites tem vindo a assumir um papel preponderante, revelando-se fundamental enquanto fonte de alerta e pelas potencialidades que as bases de dados resultantes da observação contínua da Terra pelos satélites oferecem, no que às mais diversas áreas de investigação diz respeito. O presente trabalho explora, nas vertentes da prevenção de incêndios, a utilização de previsões de tempo de alta resolução espacial obtidas com o modelo WRF para a determinação das componentes do sistema FWI canadiano e sua disponibilização operacional. Os resultados apontam para um impacto positivo, em virtude do incremento da resolução espacial, da representação espacial do risco meteorológico de incêndio no território português. Paralelamente, apresentam-se os resultados do desenvolvimento de produtos de detecção de incêndios activos a partir da infra-estrutura de recepção de dados de satélite implementadas na Universidade de Aveiro, destacando a sua adequabilidade para a monitorização e identificação, em tempo quase-real, da ocorrência de fogos florestais em Portugal Continental.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The high dependence of Portugal from foreign energy sources (mainly fossil fuels), together with the international commitments assumed by Portugal and the national strategy in terms of energy policy, as well as resources sustainability and climate change issues, inevitably force Portugal to invest in its energetic self-sufficiency. The 20/20/20 Strategy defined by the European Union defines that in 2020 60% of the total electricity consumption must come from renewable energy sources. Wind energy is currently a major source of electricity generation in Portugal, producing about 23% of the national total electricity consumption in 2013. The National Energy Strategy 2020 (ENE2020), which aims to ensure the national compliance of the European Strategy 20/20/20, states that about half of this 60% target will be provided by wind energy. This work aims to implement and optimise a numerical weather prediction model in the simulation and modelling of the wind energy resource in Portugal, both in offshore and onshore areas. The numerical model optimisation consisted in the determination of which initial and boundary conditions and planetary boundary layer physical parameterizations options provide wind power flux (or energy density), wind speed and direction simulations closest to in situ measured wind data. Specifically for offshore areas, it is also intended to evaluate if the numerical model, once optimised, is able to produce power flux, wind speed and direction simulations more consistent with in situ measured data than wind measurements collected by satellites. This work also aims to study and analyse possible impacts that anthropogenic climate changes may have on the future wind energetic resource in Europe. The results show that the ECMWF reanalysis ERA-Interim are those that, among all the forcing databases currently available to drive numerical weather prediction models, allow wind power flux, wind speed and direction simulations more consistent with in situ wind measurements. It was also found that the Pleim-Xiu and ACM2 planetary boundary layer parameterizations are the ones that showed the best performance in terms of wind power flux, wind speed and direction simulations. This model optimisation allowed a significant reduction of the wind power flux, wind speed and direction simulations errors and, specifically for offshore areas, wind power flux, wind speed and direction simulations more consistent with in situ wind measurements than data obtained from satellites, which is a very valuable and interesting achievement. This work also revealed that future anthropogenic climate changes can negatively impact future European wind energy resource, due to tendencies towards a reduction in future wind speeds especially by the end of the current century and under stronger radiative forcing conditions.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Interest on using teams of mobile robots has been growing, due to their potential to cooperate for diverse purposes, such as rescue, de-mining, surveillance or even games such as robotic soccer. These applications require a real-time middleware and wireless communication protocol that can support an efficient and timely fusion of the perception data from different robots as well as the development of coordinated behaviours. Coordinating several autonomous robots towards achieving a common goal is currently a topic of high interest, which can be found in many application domains. Despite these different application domains, the technical problem of building an infrastructure to support the integration of the distributed perception and subsequent coordinated action is similar. This problem becomes tougher with stronger system dynamics, e.g., when the robots move faster or interact with fast objects, leading to tighter real-time constraints. This thesis work addressed computing architectures and wireless communication protocols to support efficient information sharing and coordination strategies taking into account the real-time nature of robot activities. The thesis makes two main claims. Firstly, we claim that despite the use of a wireless communication protocol that includes arbitration mechanisms, the self-organization of the team communications in a dynamic round that also accounts for variable team membership, effectively reduces collisions within the team, independently of its current composition, significantly improving the quality of the communications. We will validate this claim in terms of packet losses and communication latency. We show how such self-organization of the communications can be achieved in an efficient way with the Reconfigurable and Adaptive TDMA protocol. Secondly, we claim that the development of distributed perception, cooperation and coordinated action for teams of mobile robots can be simplified by using a shared memory middleware that replicates in each cooperating robot all necessary remote data, the Real-Time Database (RTDB) middleware. These remote data copies, which are updated in the background by the selforganizing communications protocol, are extended with age information automatically computed by the middleware and are locally accessible through fast primitives. We validate our claim showing a parsimonious use of the communication medium, improved timing information with respect to the shared data and the simplicity of use and effectiveness of the proposed middleware shown in several use cases, reinforced with a reasonable impact in the Middle Size League of RoboCup.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The last decades have been characterized by a continuous adoption of IT solutions in the healthcare sector, which resulted in the proliferation of tremendous amounts of data over heterogeneous systems. Distinct data types are currently generated, manipulated, and stored, in the several institutions where patients are treated. The data sharing and an integrated access to this information will allow extracting relevant knowledge that can lead to better diagnostics and treatments. This thesis proposes new integration models for gathering information and extracting knowledge from multiple and heterogeneous biomedical sources. The scenario complexity led us to split the integration problem according to the data type and to the usage specificity. The first contribution is a cloud-based architecture for exchanging medical imaging services. It offers a simplified registration mechanism for providers and services, promotes remote data access, and facilitates the integration of distributed data sources. Moreover, it is compliant with international standards, ensuring the platform interoperability with current medical imaging devices. The second proposal is a sensor-based architecture for integration of electronic health records. It follows a federated integration model and aims to provide a scalable solution to search and retrieve data from multiple information systems. The last contribution is an open architecture for gathering patient-level data from disperse and heterogeneous databases. All the proposed solutions were deployed and validated in real world use cases.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Internet users consume online targeted advertising based on information collected about them and voluntarily share personal information in social networks. Sensor information and data from smart-phones is collected and used by applications, sometimes in unclear ways. As it happens today with smartphones, in the near future sensors will be shipped in all types of connected devices, enabling ubiquitous information gathering from the physical environment, enabling the vision of Ambient Intelligence. The value of gathered data, if not obvious, can be harnessed through data mining techniques and put to use by enabling personalized and tailored services as well as business intelligence practices, fueling the digital economy. However, the ever-expanding information gathering and use undermines the privacy conceptions of the past. Natural social practices of managing privacy in daily relations are overridden by socially-awkward communication tools, service providers struggle with security issues resulting in harmful data leaks, governments use mass surveillance techniques, the incentives of the digital economy threaten consumer privacy, and the advancement of consumergrade data-gathering technology enables new inter-personal abuses. A wide range of fields attempts to address technology-related privacy problems, however they vary immensely in terms of assumptions, scope and approach. Privacy of future use cases is typically handled vertically, instead of building upon previous work that can be re-contextualized, while current privacy problems are typically addressed per type in a more focused way. Because significant effort was required to make sense of the relations and structure of privacy-related work, this thesis attempts to transmit a structured view of it. It is multi-disciplinary - from cryptography to economics, including distributed systems and information theory - and addresses privacy issues of different natures. As existing work is framed and discussed, the contributions to the state-of-theart done in the scope of this thesis are presented. The contributions add to five distinct areas: 1) identity in distributed systems; 2) future context-aware services; 3) event-based context management; 4) low-latency information flow control; 5) high-dimensional dataset anonymity. Finally, having laid out such landscape of the privacy-preserving work, the current and future privacy challenges are discussed, considering not only technical but also socio-economic perspectives.